Les 40 erreurs techniques les plus graves en SEO

Les 40 erreurs techniques les plus graves en SEO



Quels sont les problèmes SEO les plus rencontrés en 2017?? Quelles sont les erreurs plus graves?? SEMrush a recueilli des données anonymes sur 100 000 sites et 450 millions de pages web en utilisant l’outil SEMrush Audit pour déterminer les erreurs les plus communes du référencement…

Dans cette recherche, vous pourrez découvrir les 40 erreurs les plus communes de SEO classées en trois groupes : crawlabilité et architecture de site, SEO on-page et SEO technique.

découvrir les 40 erreurs les plus communes de SEO classées en trois groupes

1. CRAWLABILITÉ ET ARCHITECTURE DE SITE



Tout d’abord, il ne sert à rien d’optimiser quoi que ce soit sur votre site si les moteurs de recherche ne peuvent pas le voir. Pour qu’un site apparaisse sur un moteur de recherche comme Google, il doit être crawlé et indexé par lui. C’est pourquoi la crawlabilité et l’indexabilité d’un site sont les éléments clés qui peuvent anéantir tous les autres efforts SEO.

Pour améliorer la navigation et la compréhension à la fois pour les utilisateurs et les bots de crawl, vous devez construire une architecture de site bien organisée. Un site bien fait pour le SEO équivaut ici à un site agréable pour l’utilisateur. Pour parvenir à ce résultat, vous devez rationaliser la structure de votre site, et vous assurer que le contenu le plus efficace est bien disponible (4 clics maximum à partir de la page d’accueil).

ROBOTS.TXT

Robots.txt peut empêcher Google de crawler et d’indexer tout le site ou des pages spécifiques. Bien qu’avoir un robot.txt ne soit pas indispensable pour le bien-être d’un site, il peut aider à augmenter la vitesse de crawl et d’indexation. Mais faites attention aux erreurs?! Sinon, Google peut ignorer les pages stratégiques de votre site ou indexer des pages peu importantes.

Le problème le plus fréquent :

Erreurs de format dans robots.txt – 3,69 % des sites analysés ont ce problème. Excluez du crawling les pages temporaires et les pages privées qui ne sont visibles que pour certains utilisateurs ou administrateurs, mais aussi les pages sans contenu intéressant.

Pour en savoir plus sur les fichiers robots, jetez un œil au manuel Google sur Robots.txt. Et si vous souhaitez valider un fichier existant, vous pouvez utiliser l’outil de test du fichier robots.txt. 



LIENS ET REDIRECTIONS

Un trop grand nombre de liens sur une page éveille la méfiance aussi bien des utilisateurs que des crawlers, qui ne suivront pas tous les liens de toute manière. Gardez donc à l’esprit que les attributs nofollow mal utilisés peuvent être nuisibles, en particulier lorsqu’on les emploie sur des liens internes.

Les problèmes les plus récurrents :

  • Erreurs 4XX (80,17 %) et erreurs 5XX (10,01 %). Avoir des liens sur votre site est nécessaire pour guider les utilisateurs et faire profiter d’autres pages du ranking de la landing page. Mais les liens cassés, les status codes 4xx et 5xx peuvent nuire à l’expérience utilisateur et à vos efforts SEO ;
  • Liens internes cassés – 33,29 %. Vérifiez scrupuleusement vos liens, remplacez ou supprimez ceux qui sont inopérants, et dans le cas d’erreurs de serveur, contactez votre hébergeur ;
  • Liens externes cassés – 28,89 %. Si vous avez des liens externes cassés, contactez les propriétaires de site ;
  • Domaine WWW mal configuré – 16,98 %. N’oubliez pas que les search bots peuvent considérer un site avec WWW et sans WWW comme deux domaines distincts. Vous devez donc paramétrer des redirections 301 vers la version préférée et l’indiquer dans la Google Search Console ;
  • Chaînes de redirection et boucles – 5,49 %. Les chaînes de redirection et les boucles désorientent les crawlers et frustrent les utilisateurs en augmentant la vitesse de chargement.


SITEMAP

Soumettre un sitemap à Google Console est une excellente manière d’aider les bots à naviguer plus rapidement sur votre site et à obtenir des mises à jour sur un contenu nouveau ou modifié. Presque tous les sites contiennent des pages utilitaires qui ne sont pas dans l’index de recherche. Sitemap vous permet de mettre en valeur les landing pages que vous voulez positionner dans la SERP. Sitemap ne garantit pas que les pages listées seront indexées ou ignorées par les moteurs de recherche, mais cela rend le processus d’indexation plus facile.

Les problèmes les plus communs :

  • Erreurs de format dans sitemap.xml – 13,19 %. Vous pouvez créer un sitemap XML manuellement, générez-le avec CMS ou un outil générateur de Sitemap. Les moteurs de recherche n’acceptent que les sitemaps de moins de 50 MB et qui contiennent moins de 50 000 liens, donc si vous avez un gros site web, vous devrez créer des sitemaps supplémentaires. Vous pouvez en apprendre davantage sur la manière de gérer des sitemaps multiples dans ce guide ;
  • Mauvaises pages dans sitemap.xml – 10,92 %. Évidemment, il ne doit pas y avoir de pages et de redirections cassées dans sitemap.xml, ni de coquilles dans les liens. Il faut également éviter d’avoir sur son site des pages listées vers lesquelles il n’y a pas de liens en interne. Si vous avez des pages identiques, gardez uniquement la canonique dans sitemap.


2. SEO ON PAGE



Le SEO on-page concerne l’amélioration des évaluations sur des pages spécifiques en optimisant son contenu et le code HTML. Même si c’est fastidieux, vous devez façonner tous les ingrédients d’une page de sorte à attirer plus de trafic pertinent. L’alliance des contenus textuel et visuel, couplée avec un bon travail en coulisse, suscitera la satisfaction des utilisateurs et la reconnaissance des moteurs de recherche.

CONTENU

On sait bien qu’un bon SEO implique un bon contenu. Le contenu remanié, ou pire encore copié, présente rarement un intérêt pour l’utilisateur et il peut avoir une influence négative considérable sur vos rankings. Vous devez donc vérifier votre site pour déterminer la présence de pages identiques ou quasi identiques, puis les supprimer ou les remplacer par des pages uniques. Nous recommandons que les pages aient au moins 85 % de contenu unique.

Le problème le plus fréquent :

Contenu dupliqué – 65.88 %. Pour éviter la cannibalisation, indiquez les pages secondaires avec la balise rel=”canonical” pointant vers la page principale.

BALISE TITLE

L’importance de la balise title est évidente : elle a un impact considérable sur la première impression qui voit votre page dans les résultats de recherche.

Les problèmes les plus importants :

  • Balises manquantes ou vides – 10,53 %. Pour chaque page, créez des meta titles attirants, et surtout uniques, afin d’orienter les utilisateurs et les crawlers ;
  • Balises title dupliquées – 53,23 %. Les titres dupliqués peuvent dérouter les utilisateurs qui ne sauront pas quelle page ils doivent suivre.


META DESCRIPTIONS

Si la balise title est une couverture sur laquelle votre page est jugée dans les résultats de recherche, la meta description est la quatrième de couverture qui la vend pour un clic. Écrire un résumé percutant et clair d’une page est tout un art, mais gardez à l’esprit qu’avoir des meta descriptions copiées-collées est pire que de ne pas en avoir du tout.

Le problème le plus récurrent :

Meta descriptions dupliquées – 53,99 %. Elles peuvent empêcher les crawlers de déterminer la pertinence et la priorité d’une page. Vous pouvez utiliser SEOmofo pour obtenir un aperçu de vos titres, descriptions et URLs dans le snippet sur la SERP de Google.

IMAGES

La recherche par image n’a rien de nouveau, et même si un bon positionnement dans la SERP images peut attirer une grande partie de votre audience cible, les propriétaires de site continuent à la négliger.

Le problème le plus important :

Images internes (8,66 %) et externes (5,25 %) cassées. Google peut décider que votre page est mal codée et entretenue si elle contient des images cassées. Vous devez inspecter régulièrement votre site pour le vérifier et réinstaller ou supprimer les éléments qui posent problème.

3. SEO TECHNIQUE



Gérer les problèmes de SEO technique tels que la lenteur du chargement ou une optimisation inadéquate au mobile, est essentiel pour le positionnement d’un site web. Une mauvaise performance de page peut mettre à mal tout le bon travail SEO que vous avez fait par ailleurs.

VITESSE DE PAGE

La vitesse de page est un facteur important de ranking, elle dépend à la fois du serveur et de la performance de la page. Elle exerce évidemment une grosse influence sur le taux de rebond. Vous devez donc optimiser le HTML, réduire les scripts et les styles, et faire en sorte de réduire le poids de la page à son minimum.

Le problème le plus important :

HTML surchargé – 0,98 %. Une des manières d’optimiser le code HTML est d’utiliser les outils de compression comme gzip ou deflate. La compression du HTML, CCS et Javascript peut produire un excellent effet sur la vitesse de chargement, mais il y a des inconvénients : le réglage est compliqué et il y a parfois des problèmes avec certains navigateurs.

MOBILE

Nous savons tous que la part du trafic mobile augmente à un rythme de plus en plus rapide. Le nombre d’utilisateurs de smartphones et de tablettes a dépassé celui d’ordinateurs depuis plusieurs années déjà. Cela veut dire qu’avoir un site adapté au mobile est absolument nécessaire.

  • Les pages AMP n’ont pas de balise canonique – 0,08 %. Si vous avez une version AMP de votre page, assurez-vous qu’elle a une balise canonique, et qu’elle est référencée sur la version non-AMP. Vous éviterez ainsi les problèmes de contenu dupliqué. Si vous avez seulement une page AMP, ajoutez une balise canonique s’autoréférençant ;
  • Balise viewport manquante – 0,66 %. Si une page n’a pas de balise meta viewport, les navigateurs mobiles ne seront pas capables de trouver la version optimisée d’une page. Ils afficheront donc celle pour ordinateur, avec une police incohérente et les images dans un format inapproprié.


Pour aller plus loin, vous pouvez également retrouver l’article de Webrankinfo : 70 idées concrètes pour améliorer votre référencement